NGOs erheben schwere VorwürfeMeta soll dringende Hinweise auf Online-Hetze vertrödeln

Erneut weist ein Bericht darauf hin, dass Meta beim Vorgehen gegen schädliche Inhalte auf Facebook und Instagram versagt. Demnach verschleppt der Konzern sogar Hinweise von ausdrücklich für Notfälle benannten NGOs. Das wird sich Meta in der EU bald nicht mehr leisten können.

Demonstranten gegen den Bürgerkrieg in Äthiopien auf einer Friedensdemo in Brüssel.
Meta versagt regelmäßig bei der Moderation von Inhalten in Krisengebieten, dem Bericht von Internews zufolge aktuell beim Bürgerkrieg in Äthiopien. Im Bild ist eine Friedensdemonstration in Brüssel zu sehen. – Alle Rechte vorbehalten IMAGO / NurPhoto

Weltweit können Hunderte NGOs Alarm schlagen, wenn sie bei Facebook oder Instagram Hass und Hetze bemerken. Konzernmutter Meta möchte ihre Hinweise bevorzugt bearbeiten, etwa um Gewalt und Ausschreitungen zu verhindern. Die NGOs gelten als „Trusted Partner“, vertrauenswürdige Hinweisgeber. Aber offenbar funktioniert das System nur mangelhaft. Aus einem Bericht der gemeinnützigen Nichtregierungsorganisation Internews geht hervor, dass der Werbekonzern dabei versagt hat, diesen besonders ernst zu nehmenden Hinweisen konsequent nachzugehen.

Meta hatte das sogenannte „Trusted Partner Program“ ins Leben gerufen, um Schwächen und Leerstellen bei der Moderation von Inhalten auszugleichen. Insbesondere in Ländern außerhalb der USA und Europas fehlt es oft an Moderator:innen, die die Sprache sprechen und die mit den politischen und kulturellen Feinheiten der jeweiligen Region vertraut sind. Meta zufolge sind über 400 Nichtregierungsorganisationen in 113 Ländern an dem Programm beteiligt, dazu zählen etwa Tech4Peace im Irak, Defy Hate Now im Südsudan oder das international operierende Internews.

Meta zahlt den Expert:innen für ihre Arbeit kein Geld. Sie sollen Hassrede, Desinformationskampagnen und sonstige schädliche Inhalte aufspüren und über spezielle Kanäle an das Unternehmen melden. Damit will Meta wohl auch verhindern, dass es erneut zu mörderischen Hetzkampagnen kommt; ein drastisches Beispiel sind die Verbrechen an der muslimischen Minderheit der Rohingya in Myanmar im Jahr 2017.

Reaktion in Zeitlupe

Doch die Zusammenarbeit verläuft offenbar alles andere als optimal, wie der vergangene Woche veröffentlichte Bericht von Internews aufzeigt. Demnach sei die Antwortzeit auf Hinweise „erratisch“. Regelmäßig reagiere Meta erst nach mehreren Wochen oder gar Monaten darauf, in manchen Fällen blieben Antworten gänzlich aus. Dabei könne es sich auch um zeitkritische Hinweise handeln, etwa, wenn ein Account zu Gewalt aufruft.

Um welche Art von Fällen es geht, untermauert der Bericht mit Beispielen. Demnach warnte etwa ein:e Hinweisgeber:in vor zirkulierenden Falschnachrichten. Unter anderem soll ein manipuliertes Bild einer Person die Mitgliedschaft in der Terrorgruppe Islamischer Staat (IS) unterstellt haben. Meta habe zwar auf den Hinweis geantwortet, die Inhalte aber mit den Regeln vereinbar gehalten. Erst als die Person getötet wurde, soll das Moderationsteam die Beiträge entfernt haben.

Für seinen Bericht hatte Internews auch eine Stellungnahme von Meta eingeholt. Das Unternehmen räumt ein, zuletzt nachlässig gewesen zu sein. Als Grund führt Meta vorrangig die Corona-Pandemie an. Zwischen 2019 und 2021 hätten die Moderationsteams nur „begrenzte Kapazitäten“ zur Verfügung gehabt, im Vorjahr habe Meta die Ressourcen jedoch aufgestockt. Rund 1.000 Eskalationen würden über den speziellen Kanal monatlich eingehen, also knapp 33 pro Tag. Meta erwartet eigenen Angaben zufolge, für jeden Hinweis üblicherweise einen bis fünf Tage zu benötigen, komplexe Fälle könnten länger dauern.

Überlasteter Notfallkanal

„Die Logik des Trusted-Partner-Programms besteht darin, dass solche Hinweisgeber:innen kontextbezogenes und sprachliches Fachwissen mitbringen und Meta dabei helfen können, die Nuancen schädlicher Inhalte in verschiedenen Ländern zu verstehen“, erklärt Internews. „Dennoch hatten viele für diesen Bericht befragte vertrauenswürdige Partner das Gefühl, dass genau dieses Fachwissen ignoriert wurde und deshalb manchmal Menschenleben gefährdet wurden.“

Internews nach fungiere der Kanal für die ausgewählten Hinweisgeber:innen derzeit wie ein Notfallkanal, obwohl das Programm dafür weder konzipiert noch ausgestattet sei. Manche „Trusted Partners“ würden notgedrungen auf andere Kanäle ausweichen, etwa auf private WhatsApp-Nachrichten an ihnen persönlich bekannte Meta-Mitarbeiter:innen. Dies sei jedoch „unfair, ineffizient und nicht nachhaltig“, schreibt Internews.

Zudem falle Metas Kommunikation mit seinen Partner:innen, so sie denn zustande kommt, „unpersönlich und oft entfremdend“ aus. In Kombination mit den langen Reaktionszeiten hätte dies zu einem Vertrauensverlust geführt, manche der Partnerorganisationen seien inzwischen frustriert aus der Zusammenarbeit ausgestiegen.

Für den Bericht hatte Internews 24 der insgesamt 465 „Trusted Partner“ befragt. Ursprünglich sei die Bestandsaufnahme gemeinsam mit Meta geplant gewesen, das Unternehmen habe sich jedoch im Jahr 2022 davon zurückgezogen. Internews entschied daraufhin, den Bericht auf eigene Faust zu verfassen. Da Meta aus Sicherheitsgründen keine vollständige Liste aller „Trusted Partner“ veröffentlicht, musste sich Internews auf ihnen bekannte Partner-Organisationen beschränken.

EU macht spezielle Meldekanäle zur Pflicht

Zumindest in der EU wird sich Meta einen derart laxen Umgang mit problematischen Inhalten nicht mehr lange leisten können. Noch ist die Zusammenarbeit mit vertrauenswürdigen Hinweisgeber:innen für Anbieter wie Facebook freiwillig, betont eine Sprecherin der EU-Kommission. Doch schreibt der Digital Services Act (DSA), das Digitale-Dienste-Gesetz der EU, spezielle Kanäle für Expert:innen fest. Ihre Meldungen müssen künftig „vorrangig behandelt und unverzüglich bearbeitet“ werden, heißt es im Gesetz.

Da Facebook und Instagram als sehr große Online-Plattformen (Very Large Online Platform, VLOP) gelten, müsste Meta die DSA-Vorgaben eigentlich schon Ende August erfüllen – das Detail der priorisierten Meldekanäle allerdings noch nicht. Denn die Hinweisgeber:innen werden von den Aufsichtsbehörden der EU-Länder ernannt, den sogenannten „Digital Services Coordinators“. Und diese Koordinierungsstellen existieren noch nicht, dafür haben die EU-Länder bis Februar des kommenden Jahres Zeit. Ab dann wird aber auch diese Regel greifen, und die betroffenen VLOPs müssten sich „jetzt schon darauf vorbereiten“, so die Kommissionssprecherin.

5 Ergänzungen

  1. > Meta hatte das sogenannte „Trusted Partner Program“ ins Leben gerufen, …
    > Meta zahlt den Expert:innen für ihre Arbeit kein Geld.

    Und wer bitte bezahlt die „Expert:innen“?
    Brauchen die nix zum Überleben?
    Keine Familie, die ernährt werden muss?
    Bring your own device?
    Risk your own health?
    Waste your own lifetime?

    1. Du findest es absurd, etwa Mordaufrufe löschen zu wollen?
      In deiner Welt möchte ich nicht leben.

  2. Überlastung ist eine wohlfeile Ausrede. Bei all‘ dem Streit um die „verspätete“ Löschung „gefährlicher“ Beiträge muss man sich vor Augen halten, dass META gerade damit Geld verdient – mit den Beiträgen, nicht mit der Löschung. Solche reißerischen, polarisierenden Beiträge sind doch genau das, was die Aufmerksamkeitsökonomie braucht. Viele Klicks, viel Verweildauer, viele Werbeeinnahmen. So einfach ist die Logik. Da helfen auch Zuckerbergs scheinheilige Beteuerungen nichts, etwas „verbessern“ zu wollen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.